64 research outputs found

    Noisy image restoration using Markov random field in a multiresolution scheme

    Get PDF
    The restoration methods involving Markov random fields with line process for the discontinuities are known to give good results in edge preserving image restoration . The Markov model is developped on the image decomposed at several resolutions using a wavelet transform . A deterministic relaxation algorithm (GNC) performs the minimization of the non convex criterion . Several multiresolution algorithms are developped and results are compared with those in monoresolution . These multiresolution algorithms provide better results with less computation time .La modélisation de l'image et de ses discontinuités par champ markovien a pour objectif dans la restauration d'image de préserver les contours. Dans cet article l'image est d'abord décomposée à différents niveaux de résolutions par transformée en ondelettes. Un champ markovien est défini pour chaque résolution et l'image est restaurée itérativement en fonction des résolutions croissantes. Cet algorithme est analysé comparativement à un algorithme monorésolution et montre son efficacité en terme de réduction de temps de calcul et qualité de l'image restauré

    Filtrage non-linéaire dynamique pour la compression des images

    Get PDF
    Le problème conjoint codage/décodage d'images n'a fait l'objet que de très peu de travaux. En particulier, la conception du décodeur a été, à notre connaissance, très peu abordé. Dans cet article, nous proposons de concevoir le décodeur en prenant en compte des a priori sur la solution et la connaissance du codeur (transformation et quantification). Un simple filtrage linéaire ne prend pas en compte la non-linéarité de l'opération de quantification ni la non-stationnarité des images ; c'est pourquoi nous proposons, dans notre approche, une optimisation du filtre de reconstruction au décodeur afin d'atténuer les effets dus au bruit de quantification. La solution peut être considérée comme un problème inverse avec optimisation de la structure Transformation/Quantification/Décodage formulée par une approche variationnelle. Cette nouvelle approche de décodage est issue d'un filtrage inverse non-linéaire dynamique. Les résultats expérimentaux basés sur ce filtrage inverse non-linéaire dynamique démontrent un gain en terme de PSNR comparé au filtrage inverse linéaire standard mais surtout d'importantes améliorations visuelles en terme de suppressions d'artefacts

    High efficiency image restoration using mirror images and adaptive Kalman filtering

    Get PDF
    The purpose of this paper is image restoration by means of fast parallel Kalman filtering . This algorithm was introduced by Biemond et al. in 1983 [13] for image restoration . The problem is the appearance of ringing in the restored image. It results front the implicit assumption of rows periodicity, when FFT is applied on the image rows. Since left and right boundaries values are différent, discontinuity points appear . In order to achieve boundary condition suitable for the ID horizontal FFT processing, we use in the algorithm a mirror image . We first give the description of this mirror image, and then we exploit in the algorithm its horizontal properties of boundaries continuity and symmetry. Then, an adaptive Kalman filtering is introduced to avoid non consistency of the Kalman gains factors on some frequencies, and to reduce the remaining ringing. Finally results are shown for some images and PSF .Notre propos est la restauration d'image dégradée par un flou ou un bougé, additionné d'un bruit . La méthode proposée est dérivée de l'algorithme de filtrage récursif introduit par Biemond en 1983 [13] qui offre l'avantage d'être plus rapide que d'autres méthodes de restauration d'image, et de réaliser une déconvolution significative . L'écriture vectorielle du modèle AR 2D de l'image et de la dégradation fait apparaître des matrices de Toeplitz . Celles-ci approchées par des matrices circulantes, sont facilement diagonalisées par FFT. Cette diagonalisation permet de transformer le système 2D de taille N x N, en N systèmes 1D disjoints de taille N : l'application de N FFT sur les lignes permet d'obtenir N filtres de Kalman disjoints sur les colonnes . L'utilisation de la FFT, qui suppose la périodicité du signal traité, fait apparaître une discontinuité entre les bords droit et gauche de l'image . Cette discontinuité du signal crée des fréquences parasites qui se traduisent sur l'image restaurée, par des bandes verticales blanches et noires . Afin d'éliminer ces rayures, nous proposons d'utiliser dans cet algorithme une image miroir construite à partir de l'image originale : l'image à traiter possède alors des propriétés de continuité et de symétrie que nous exploitons . Enfin, nous développons un filtre adaptatif de Kalman appliqué au signal 1D à restaurer, afin de réduire la dynamique des gains du filtre de certains de ces signaux . Des résultats sont présentés sur des images artificiellement rendues floues ou bougées

    Robust Real-Time Segmentation of Images and Videos Using a Smooth-Spline Snake-Based Algorithm

    Get PDF
    International audienc

    Motion and appearance nonparametric joint entropy for video segmentation

    Get PDF
    Abstract This paper deals with video segmentation based on motion and spatial information. Classically, the motion term is based on a motion compensation error (MCE) between two consecutive frames. Defining a motion-based energy as the integral of a function of the MCE over the object domain implicitly results in making an assumption on the MCE distribution: Gaussian for the square function and, more generally, parametric distributions for functions used in robust estimation. However, these assumptions are not necessarily appropriate. Instead, we propose to define the energy as a function of (an estimation of) the MCE distribution. This function was chosen to be a continuous version of the Ahmad-Lin entropy approximation, the purpose being to be more robust to outliers inherently present in the MCE. Since a motion-only constraint can fail with homogeneous objects, the motion-based energy is enriched with spatial information using a joint entropy formulation. The resulting energy is minimized iteratively using active contours. This approach provides a general framework which consists in defining a statistical energy as a function of a multivariate distribution, independently of the features associated with the object of interest. The link between the energy and the features observed or computed on the video sequence is then made through a nonparametric, kernel-based distribution estimation. It allows for example to keep the same energy definition while using different features or different assumptions on the features

    A new multistage lattice vector quantization with adaptive subband thresholding for image compression

    Get PDF
    Lattice vector quantization (LVQ) reduces coding complexity and computation due to its regular structure. A new multistage LVQ (MLVQ) using an adaptive subband thresholding technique is presented and applied to image compression. The technique concentrates on reducing the quantization error of the quantized vectors by "blowing out" the residual quantization errors with an LVQ scale factor. The significant coefficients of each subband are identified using an optimum adaptive thresholding scheme for each subband. A variable length coding procedure using Golomb codes is used to compress the codebook index which produces a very efficient and fast technique for entropy coding. Experimental results using the MLVQ are shown to be significantly better than JPEG 2000 and the recent VQ techniques for various test images

    Interaction of Imidazole Containing Hydroxamic Acids with Fe(III): Hydroxamate Versus Imidazole Coordination of the Ligands

    Get PDF
    Solution equilibrium studies on Fe(III) complexes formed with imidazole-4-carbohydroxamic acid (Im-4-Cha), N-Me-imidazole-4-carbohydroxamic acid (N-Me-Im-4-Cha), imidazole-4-acetohydroxamic acid (Im-4-Aha), and histidinehydroxamic acid (Hisha) have been performed by using pH-potentiometry, UV-visible spectrophotometry, EPR, ESI-MS, and H1-NMR methods. All of the obtained results demonstrate that the imidazole moiety is able to play an important role very often in the interaction with Fe(III), even if this metal ion prefers the hydroxamate chelates very much. If the imidazole moiety is in α-position to the hydroxamic one (Im-4-Cha and N-Me-Im-4-Cha) its coordination to the metal ion is indicated unambiguously by our results. Interestingly, parallel formation of (Nimidazole, Ohydroxamate), and (Ohydroxamate, Ohydroxamate) type chelates seems probable with N-Me-Im-4-Cha. The imidazole is in β-position to the hydroxamic moiety in Im-4-Aha and an intermolecular noncovalent (mainly H-bonding) interaction seems to organize the intermediate-protonated molecules in this system. Following the formation of mono- and bishydroxamato mononuclear complexes, only EPR silent species exists in the Fe(III)-Hisha system above pH 4, what suggests the rather significant “assembler activity” of the imidazole (perhaps together with the ammonium moiety)

    Codebook optimal et nouvelle strategie de quantification vectorielle d'image

    No full text
    Dans cet article, nous proposons une nouvelle méthode d'optimisation d'un codebook combinant l'algorithme LBG (Linde-Buzo-Gray) et la technique de SPLITTING, avec son application en codage d'image par quantification vectorielle. Un des principaux problèmes rencontrés en quantification vectorielle est de trouver un codebook "globalement optimal", en effet, un codebook sous-optimal engendrera toujours un codage sous-optimal des données. Or, lorsque l'on utilise l'algorithme LBG, l'obtention d'un tel codebook est conditionnée par le choix du codebook initial utilisé; ce choix est prépondérant si l'on ne veut pas converger vers un minimum local de distorsion "pauvre". Notre méthode permet de modifier les conditions initiales du LBG dans le but de sortir d'un minimum local de distorsion, en effectuant le splitting des vecteurs du codebook qui ont une grande probabilité d'apparition. L'entropie du codebook est alors améliorée (augmentée): une recherche du meilleur compromis entre la distorsion et l'entropie est donc effectuée. Nous présentons aussi un nouveau schéma de codage hiérarchique d'image qui utilise la quantification vectorielle en considérant une image résiduelle (image originale après soustraction de moyennes locales) dans le domaine transformé
    corecore